Usar Microsoft Copilot Sin la Nube
Los asistentes de IA “Copilot” de Microsoft – desde Microsoft 365 Copilot en las aplicaciones de Office, hasta GitHub Copilot para programación, y el nuevo Windows Copilot – prometen aumentar la productividad gracias a la inteligencia artificial generativa. Pero hoy en día, estas herramientas dependen en gran medida de la nube. Se basan en modelos de lenguaje de gran escala que se ejecutan en los centros de datos de Microsoft para generar respuestas, sugerencias de código y análisis. Esto plantea una pregunta clave para muchos responsables de TI: ¿Se puede usar Copilot sin conexión a internet o sin depender de la nube?
En esta exploración en profundidad, examinaremos el estado actual de la dependencia de Copilot respecto a la nube, qué opciones existen (si es que existen) para un uso sin conexión o en entornos locales, y cómo Microsoft está evolucionando Copilot hacia escenarios híbridos. Analizaremos cada versión de Copilot – Microsoft 365, GitHub y Windows – y discutiremos estrategias empresariales para entornos con conectividad limitada. También destacaremos la hoja de ruta de Microsoft y las soluciones emergentes que buscan ampliar la disponibilidad de Copilot más allá de la nube.
(Spoiler: las experiencias actuales de Copilot están mayormente ligadas a la nube, pero se avecinan cambios. Mientras tanto, existen formas de mitigar los requisitos de conectividad y prepararse para despliegues de IA más flexibles).


La Naturaleza en la Nube de Microsoft Copilot Hoy
Todos los servicios actuales de Microsoft Copilot funcionan principalmente como asistentes de IA basados en la nube, lo que significa que realizan el procesamiento intensivo de IA en servidores remotos. Recapitulemos brevemente cómo funciona cada versión de Copilot y por qué generalmente se requiere una conexión activa a internet:
- Microsoft 365 Copilot – Un asistente de IA para Word, Excel, PowerPoint, Outlook, Teams, etc., que utiliza GPT-4 de OpenAI (alojado en Azure) junto con datos de Microsoft Graph para generar contenido y respuestas. Está disponible únicamente como parte de los servicios en la nube de Microsoft. Microsoft 365 Copilot es explícitamente basado en la nube, sin posibilidad de ejecución local o sin conexión. De hecho, la documentación de Microsoft lo dice claramente: “Microsoft 365 Copilot es un servicio basado en la nube y no tiene acceso a buzones locales.” Si los datos de un usuario (como un buzón de Exchange) se almacenan localmente en lugar de en Exchange Online, Copilot simplemente no puede acceder a ellos. Toda la funcionalidad ocurre en la nube de Microsoft 365, por lo que sin acceso a internet a esa nube, Copilot no puede funcionar. Expertos del sector también han advertido: “No esperes usar Copilot sin conexión… Copilot no puede funcionar sin acceso a los servicios de Azure.” En otras palabras, sin internet, no hay Copilot en Office.
- GitHub Copilot – Un programador asistente de IA que sugiere código dentro de tu entorno de desarrollo (IDE). GitHub Copilot se basa en modelos Codex/GPT de OpenAI alojados por GitHub (ahora una subsidiaria de Microsoft). Tu editor de código envía el contexto de tu código al servicio Copilot en la nube, que devuelve sugerencias generadas por IA. Esto significa que GitHub Copilot requiere una conexión activa a internet siempre que esté proporcionando sugerencias. No existe modo sin conexión. Los propios foros de soporte de GitHub confirman que “Copilot necesita acceso a internet para obtener tus sugerencias, ya que el procesamiento se realiza del lado de GitHub.” Cuando se preguntó sobre una versión local para empresas, la respuesta fue tajante: “No hay planes para una versión local de Copilot.” Así que hoy en día, ya seas un desarrollador individual o una empresa usando Copilot for Business, las sugerencias de código provienen de un servicio en la nube (con las medidas de seguridad adecuadas para evitar la retención de tu código). Si tus desarrolladores están completamente sin conexión o en una red restringida sin internet, GitHub Copilot no funcionará.
- Windows Copilot – Presentado en Windows 11 (2023) como un asistente de IA integrado, Windows Copilot comenzó esencialmente como una interfaz para Bing Chat (GPT-4) dentro de Windows. En su versión inicial, las funciones de Windows Copilot (responder preguntas, resumir contenido, controlar configuraciones) estaban todas respaldadas por la nube, concretamente por la IA de Bing. Por lo tanto, requería acceso a internet. Los primeros usuarios notaron que Copilot para Windows era básicamente “un servicio en línea integrado en Windows”: si estabas sin conexión, no hacía nada. Incluso tareas simples como pedirle a Windows Copilot que resuma un documento o redacte un correo necesitaban la IA en la nube. Esta situación era igual tanto en un PC nuevo con IA como en una máquina antigua de 10 años: sin internet, Copilot no estaba disponible. En resumen, la primera versión de Windows Copilot trataba al PC como un simple conducto hacia la IA en la nube.
¿Por Qué Esta Dependencia de la Nube?
El denominador común es que estas experiencias con Copilot aprovechan modelos de lenguaje de gran escala (LLMs) demasiado masivos para ejecutarse en hardware local típico (al menos hasta hace poco). Microsoft 365 Copilot utiliza GPT-4; GitHub Copilot usa Codex y modelos más recientes basados en GPT-4 para chat; Bing/Windows Copilot también se basa en GPT-4. Estos modelos tienen miles de millones de parámetros y requieren potentes GPUs, por lo que residen en la nube de Azure. Ejecutarlos en la nube también permite que Copilot se integre con datos basados en la nube (por ejemplo, tus documentos de Microsoft 365, correos electrónicos o repositorios de código públicos) y aplique controles de seguridad empresariales de forma centralizada.
Sin embargo, esta dependencia de la nube plantea desafíos. Veamos por qué muchas organizaciones están pidiendo capacidades de Copilot sin conexión o en entornos locales y cuáles son las opciones actuales.
Por Qué las Empresas Quieren Copilot Sin la Nube
Para los responsables de TI, la naturaleza basada en la nube de Copilot genera consideraciones importantes en torno a la conectividad, la privacidad y el cumplimiento normativo. Algunos escenarios en los que un Copilot dependiente de la nube podría no ser ideal incluyen:
Entornos con Conectividad Limitada o Inexistente
Muchas industrias tienen usuarios en ubicaciones remotas o aisladas: pensemos en plataformas petroleras, minas, barcos en alta mar, estaciones de investigación de campo, clínicas rurales o despliegues militares. En estos casos, la conexión a internet confiable no está garantizada. Un ingeniero en un barco de carga o un soldado en una base operativa avanzada podrían beneficiarse enormemente de un asistente de IA, pero si este requiere conexión constante a internet, deja de ser viable. Estos usuarios necesitan herramientas de IA que funcionen sin conexión o con conectividad intermitente.
Seguridad de Datos y Cumplimiento Normativo Estricto
Los sectores altamente regulados (gobierno, defensa, finanzas, salud) a menudo tienen políticas que prohíben transmitir datos sensibles por internet pública. Incluso si la nube de Microsoft es segura, la idea de que los datos o solicitudes de un usuario salgan del entorno local puede violar dichas normas. Por ejemplo, una agencia gubernamental podría ver con buenos ojos que Copilot resuma un informe confidencial, pero si para hacerlo se envía el texto a la nube, podría infringir protocolos de seguridad. Estas organizaciones buscan soluciones de IA locales o en nubes privadas donde los datos permanezcan siempre dentro de su entorno controlado.
Latencia y Fiabilidad
Depender de servicios en la nube implica que los usuarios están sujetos a latencia y caídas de internet. Si la conexión es lenta o se interrumpe, Copilot se vuelve lento o deja de funcionar. En flujos de trabajo críticos, esa incertidumbre resulta problemática. Un Copilot con capacidad sin conexión podría garantizar la continuidad: asistencia de IA disponible incluso cuando la red falla. Se trata de resiliencia: pensemos en una situación de emergencia durante un desastre natural en la que no haya conexión a internet, pero un asistente de IA aún pueda ayudar a analizar datos localmente.
Costes y Ancho de Banda
Enviar datos constantemente a la nube para procesamiento de IA puede consumir ancho de banda e incluso generar costes (aunque Copilot en sí se licencia por usuario). En sucursales remotas con enlaces limitados o de bajo ancho de banda, minimizar el tráfico hacia la nube es deseable. Un modelo de IA local podría reducir el uso de ancho de banda.
Percepción sobre la Privacidad
Más allá de la seguridad real, algunas organizaciones tienen una necesidad cultural o impulsada por el cliente de mantener todo en local. Pueden confiar en la nube de Microsoft en principio, pero prefieren decir a los interesados: “la IA funciona localmente, sus datos nunca salen de nuestras instalaciones.” Es una garantía para clientes o ciudadanos de que la información sensible no se encuentra ni siquiera temporalmente en un sistema externo.
Valor de los Datos Propietarios
Microsoft 365 Copilot y GitHub Copilot están diseñados de forma que tus datos no se utilizan para entrenar los modelos base (los datos empresariales permanecen privados dentro de tu tenant). Microsoft ha sido claro al respecto. Sin embargo, las organizaciones extremadamente sensibles aún pueden preocuparse por cualquier posible exposición. Tener una IA que pueda desplegarse dentro de un cortafuegos – idealmente incluso sin acceso a internet – les otorgaría control total. También abriría la puerta a personalizar profundamente la IA con datos propietarios sin necesidad de enviar esos datos fuera de su entorno.
Dadas estas motivaciones, no es de extrañar que tan pronto como se anunció Copilot, los clientes empezaran a preguntar: “¿Habrá una versión local o sin conexión?” A continuación, profundizaremos en cada oferta de Copilot y lo que se puede (o no se puede) hacer para usarla sin depender de la nube.
Microsoft 365 Copilot – Solo en la Nube por Ahora, Acceso Híbrido a Datos Posible
Microsoft 365 Copilot es el asistente de IA integrado en las aplicaciones de Office como Word, Excel, PowerPoint, Outlook, Teams y más. Puede redactar documentos, crear presentaciones, resumir correos electrónicos o chats, analizar datos de Excel y responder preguntas, todo aprovechando los datos de tu organización en Microsoft 365 (SharePoint, OneDrive, Exchange Online, etc.) junto con la inteligencia de GPT-4. Por diseño, este servicio se ejecuta en la nube de Microsoft (dentro del servicio Azure OpenAI, dentro del entorno de Microsoft 365).
Actualmente, no existe forma de ejecutar los componentes LLM de Microsoft 365 Copilot en local o sin conexión; es necesario tener conexión a la nube de Microsoft 365 para poder usarlo. Incluso los datos que utiliza suelen residir en la nube (como tus archivos de SharePoint Online, buzones de Exchange Online, etc.). Si no estás conectado a esos servicios, Copilot no tiene con qué trabajar. Como se mencionó anteriormente, la documentación de Microsoft es clara: “Microsoft 365 Copilot está basado en la nube.” No puede acceder a sistemas locales que no estén integrados con la nube.
Por ejemplo, consideremos el correo electrónico. Si el buzón de un usuario está en Exchange Online, Copilot puede leer los correos (a los que el usuario tenga acceso) y resumirlos o responderlos. Pero si ese buzón está en un servidor Exchange local no accesible desde Microsoft 365, Copilot no incluirá esos correos en su análisis. En configuraciones híbridas de correo, Microsoft indica que Copilot solo funcionará con el contenido en la nube y que “el análisis del buzón (uso de datos de correo electrónico) no está soportado” si el buzón está en local. En términos prácticos, eso significa que Copilot aún podría responder a consultas generales o usar tus archivos de SharePoint Online, pero actuará como si tus correos o calendario locales no existieran.
Sin modo sin conexión
¿Y si el usuario está simplemente sin conexión (por ejemplo, trabajando en un portátil sin internet)? En ese caso, las funciones de Copilot en las aplicaciones de Office ni siquiera aparecerán ni funcionarán. Tony Redmond de Practical 365 lo resumió muy bien: Copilot no funciona sin conexión… necesita acceso rápido a los servicios en la nube y a los datos de Graph. Incluso si tienes copias locales de documentos sincronizados con OneDrive, el procesamiento de IA sigue ocurriendo en Azure – por lo tanto, sin conectividad, Copilot no puede “pensar”. Las aplicaciones de Office podrían mostrar el icono de Copilot atenuado si no estás conectado.
Acceso híbrido a datos mediante Graph Connectors
Aunque no puedes ejecutar el modelo LLM de Copilot localmente, Microsoft 365 sí ofrece una forma de incluir ciertos datos locales en el alcance de Copilot: los conectores de Microsoft Graph. Estos conectores permiten a las organizaciones indexar fuentes de datos externas (incluidos archivos compartidos locales, sitios de SharePoint on-premise, servicios de terceros, etc.) dentro del índice de búsqueda de Microsoft 365. Una vez indexados en la nube, esos datos pasan a formar parte de lo que Copilot puede consultar al responder preguntas (ya que Copilot utiliza Microsoft Search/Graph para recuperar contenido relevante). Por ejemplo, si tienes archivos en un servidor de archivos local, puedes usar el conector de Graph para Windows File Share y así rastrear e indexar esos archivos en Microsoft 365. Luego, cuando un usuario le haga una pregunta a Copilot, este podrá “fundamentar” su respuesta en esos archivos locales (ahora representados en el índice en la nube).
Esto no es una solución sin conexión; en realidad, implica copiar metadatos (y opcionalmente el contenido) al índice en la nube, pero es una forma de puentear datos locales hacia la nube de Copilot. Un administrador en el foro de la comunidad de Microsoft preguntó si Copilot puede incluir datos compartidos locales, y un representante de Microsoft confirmó: Sí – crea un conector de Graph desde M365 hacia tu recurso compartido local. El resultado es un escenario híbrido: tus datos permanecen almacenados localmente, pero existe una copia indexada en Microsoft 365, lo que permite que Copilot los utilice. Ten en cuenta que configurar los conectores de Graph requiere planificación (para el indexado de búsqueda y la asignación de permisos), y los datos se enviarán al índice de la nube de Microsoft 365, algo que algunas organizaciones altamente sensibles aún podrían rechazar. Pero para muchas, esto representa un compromiso viable para dar a Copilot visibilidad sobre contenido local sin necesidad de migrar completamente dicho contenido.
Seguridad y residencia de datos
Microsoft ha trabajado para reducir las preocupaciones de seguridad en la nube en relación con Copilot. En particular, Copilot (en su versión empresarial) no utiliza tus datos privados para entrenar los modelos públicos; los datos y las solicitudes de tu tenant están aislados. Microsoft 365 Copilot se ejecuta en Azure OpenAI dentro del entorno controlado por Microsoft, no en la API pública de OpenAI. Microsoft afirma que las solicitudes, los datos recuperados y las respuestas permanecen dentro del límite del tenant de Microsoft 365. Cualquier almacenamiento en caché es temporal y se usa solo para esa sesión. Además, si no deseas que Copilot envíe datos a complementos externos o incluso a Bing para búsquedas web, puedes controlar eso (por ejemplo, si el complemento de búsqueda web está activado, Copilot podría recurrir ocasionalmente a la API de búsqueda de Bing para ofrecer mejores respuestas – los administradores pueden desactivar esa opción si les preocupa). En esencia, Microsoft quiere que los clientes reacios a la nube se sientan tranquilos sabiendo que Copilot en Microsoft 365 está preparado para entornos empresariales en términos de privacidad.
Sin embargo, para algunas organizaciones esto no es suficiente – ya sea por políticas o por falta de conectividad, simplemente no pueden usar un servicio en la nube, por muy seguro que sea. Para ellas, la pregunta es: ¿podrá Microsoft 365 Copilot ejecutarse alguna vez localmente o en un centro de datos privado?
Perspectivas futuras
Microsoft ha insinuado que planea aprovechar el procesamiento local para Copilot en el futuro, al menos en ciertos escenarios. En 2024, Microsoft anunció los Copilot+ PCs (lo abordaremos con más detalle en la sección sobre Windows), que son dispositivos Windows optimizados para IA con NPUs (unidades de procesamiento neuronal) que ejecutan algunas tareas de IA localmente. En particular, varios informes señalaron que “Microsoft 365 Copilot pronto podrá usar la NPU en dispositivos Copilot+ para ejecutar modelos de IA localmente.”
Esto sugiere que si estás usando, por ejemplo, Word en un PC Copilot+, algunas partes de la funcionalidad de Copilot podrían ejecutarse en el propio dispositivo sin necesidad de comunicarse con la nube. Por ejemplo, sugerencias rápidas de gramática o estilo, o resúmenes simples, podrían ser manejados por un modelo pequeño integrado en el dispositivo en el futuro. Aunque los detalles aún están surgiendo, esto es una clara señal de que Microsoft está explorando arquitecturas híbridas para Copilot: las tareas más exigentes seguirán llamando a GPT-4 en la nube, pero ciertos modelos de IA auxiliares (quizás para indexar contenido local o para comprensión parcial de documentos) podrían ejecutarse localmente en hardware compatible.
Además, Microsoft ha ampliado Microsoft 365 Copilot a los tenants de la nube comunitaria gubernamental (GCC) desde finales de 2024. Esto significa que incluso las organizaciones del sector público regulado pueden usar Copilot, aunque sigue siendo en una nube gestionada por Microsoft (el entorno GCC está separado del entorno comercial, pero no es local). Es importante destacar que Copilot aún no está disponible en GCC High ni en DoD (las nubes gubernamentales de mayor seguridad en EE. UU.), lo que indica que Microsoft sigue trabajando para cumplir con esos requisitos más estrictos — posiblemente aspectos como redes totalmente aisladas o niveles de autorización más altos para los datos. Es posible que eventualmente veamos Copilot en esos entornos, que por definición no tienen exposición a internet pública. Eso podría considerarse una “nube sin internet”: el servicio se ejecutaría en regiones gubernamentales de Azure desconectadas de redes públicas. No sería local en los servidores del cliente, pero sería un paso más cercano (una nube dedicada).
En resumen
Hoy en día, si deseas utilizar Microsoft 365 Copilot, debes utilizar el servicio en la nube de Microsoft. No existe una instalación local. Sin embargo, puedes integrar datos locales mediante conectores y puedes configurar la seguridad de red (por ejemplo, utilizar enlaces de red privados hacia Azure) para garantizar que el tráfico de Copilot no pase por internet pública (más sobre esto más adelante). La hoja de ruta de Microsoft sugiere una capacidad creciente para aprovechar recursos locales (como las NPUs) junto con la IA en la nube, pero un Microsoft 365 Copilot completamente sin conexión aún no está disponible.


GitHub Copilot – Asistente de Programación con IA (y sus Limitaciones en Entornos Restringidos)
GitHub Copilot se ha convertido en una herramienta popular entre los desarrolladores, ofreciendo sugerencias de código generadas por IA e incluso chat en lenguaje natural para programar. Está disponible como extensión en VS Code, Visual Studio, IDEs de JetBrains, etc. Para las empresas, existe GitHub Copilot for Business, que ofrece mayor privacidad (sin retención de fragmentos de código, bloqueo opcional de secretos, etc.). A pesar de estas diferencias en las licencias, la arquitectura técnica central de GitHub Copilot es la misma para todos los usuarios: se basa en la IA en la nube de GitHub. El modelo (descendiente de OpenAI Codex y ahora mejorado con GPT-4 para ciertas funciones) se ejecuta en servidores; el complemento del IDE envía el contexto del código al servidor y recibe de vuelta las sugerencias generadas por la IA.
Esto significa que GitHub Copilot no puede ejecutarse de forma nativa en tu PC o servidor; requiere conectividad con el servicio de GitHub. Si tu máquina de desarrollo está sin conexión o aislada del acceso a internet, Copilot simplemente no generará nada. A nivel práctico, la extensión solo mostrará errores o ningún resultado si no puede conectarse al servidor. El equipo de GitHub ha sido claro sobre esta limitación. En sesiones de preguntas y respuestas con la comunidad, los usuarios preguntaron si se podía ofrecer una versión sin conexión (para empresas sin acceso a internet). La respuesta oficial (en 2022) fue: “Copilot necesita acceso a internet... el procesamiento se realiza en los servidores de GitHub.” y que no hay planes para una versión local de Copilot como producto. Esto sigue siendo válido en 2025: GitHub Copilot es un servicio en la nube.
Para muchas empresas, esta dependencia de la nube es aceptable porque GitHub ha implementado varias medidas de seguridad empresarial: Copilot for Business garantiza que “las solicitudes y sugerencias no se retienen ni se utilizan para entrenar el modelo”, y se puede restringir el acceso de Copilot a ciertos repositorios o tipos de archivos. En esencia, tu código propietario no se almacena en ningún repositorio público; se procesa en tiempo real y luego se descarta. Esto resuelve algunas preocupaciones relacionadas con la propiedad intelectual. Sin embargo, desde el punto de vista de la red, los desarrolladores aún deben tener acceso a internet para utilizarlo. Las organizaciones con entornos de desarrollo aislados (común en defensa, algunas entidades financieras y software de infraestructura crítica) encuentran esto como una barrera. Por ejemplo, un banco que desarrolla software en una red estrictamente controlada sin acceso a GitHub no puede permitir que sus desarrolladores usen Copilot, por muy beneficioso que sea, porque no puede conectarse con el servicio.
Soluciones de red para empresas
Si la preocupación no es tanto el internet en sí, sino la seguridad de los datos en tránsito, una opción es usar controles de red para limitar el alcance de Copilot solo a los puntos finales necesarios. Por ejemplo, una empresa podría permitir que las estaciones de trabajo de los desarrolladores se conecten únicamente a los endpoints de la API de Copilot de GitHub (usando reglas de firewall/proxies) y a nada más en internet. El tráfico hacia Copilot está cifrado (TLS), y con Copilot for Business tienes garantías sobre el manejo de los datos. Esta configuración aún requiere una conexión a internet, pero muy restringida. Es una forma de mitigar el riesgo: el código va a la nube de GitHub y a ningún otro lugar. Algunas empresas también enrutan dicho tráfico a través de una VPN o enlace privado. GitHub (vía Azure) podría incluso ser accesible mediante un ExpressRoute u otra conexión de red privada si se configura – convirtiendo el servicio en la nube en una extensión de la red corporativa. (Vemos patrones similares con servicios de Azure que usan Private Link – más sobre ese concepto en la siguiente sección). Aunque esto no convierte a Copilot en una solución “sin conexión”, al menos elimina la exposición a internet pública.
Alternativas locales para IA de programación
Reconociendo que algunas empresas no usarán un servicio en la nube para generación de código, algunos proveedores externos han comenzado a ofrecer herramientas similares a Copilot que pueden ejecutarse localmente. Por ejemplo, Codeium (un asistente de programación con IA alternativo) tiene una solución empresarial local que puede desplegarse en el entorno del cliente con “garantía de que ningún dato ni telemetría sale nunca”. Esto, en esencia, te proporciona un modelo de IA autoalojado para generar código. Sin embargo, estas alternativas utilizan modelos de IA distintos (a menudo de código abierto como CodeGen, SantaCoder o derivados de LLaMA), que pueden no igualar la potencia total de los modelos más recientes de OpenAI. Lo atractivo es que se pueden contenerizar y ejecutar en tus propios servidores con GPU detrás de tu cortafuegos, y así funcionar completamente sin conexión (después de la instalación inicial). Las grandes empresas con políticas estrictas podrían considerar estas opciones si GitHub Copilot no está permitido.
Otro camino es usar el servicio Azure OpenAI para construir un “Copilot” personalizado. Azure OpenAI proporciona APIs a modelos de OpenAI (Codex, GPT-3.5, GPT-4) con la capa empresarial de Azure. Aunque Azure OpenAI sigue siendo un servicio en la nube, podrías alojar un pequeño servicio web interno que llame al modelo de completado de código de Azure OpenAI en nombre de tus desarrolladores. Esto mantendría todo el flujo de código dentro de tu tenant de Azure controlado. También puedes usar Private Endpoints para que las llamadas a Azure OpenAI no pasen por internet pública, sino a través de un enlace de red privado. En esencia, sigue siendo nube, pero puede comportarse como una extensión privada de tu centro de datos (por ejemplo, mediante un circuito ExpressRoute hacia Azure). Los IDEs de los desarrolladores podrían apuntar a este servicio interno para obtener completado por IA. Este enfoque requiere un trabajo personalizado considerable (no es tan plug-and-play como la integración de GitHub Copilot en VS Code), pero es un compromiso viable para algunos: obtienes asistencia de IA similar usando los modelos en la nube de Azure, pero con aislamiento de red y quizá más control directo sobre las solicitudes y respuestas (podrías registrarlas o filtrarlas si es necesario).
Limitaciones actuales
Al final del día, si “sin nube” realmente significa sin nube, entonces GitHub Copilot no es una opción actualmente. Los desarrolladores en redes completamente aisladas (air-gapped) no pueden usarlo. Tendrían que depender de herramientas de análisis estático o de asistentes de ML locales de generaciones anteriores (algunos IDEs tienen completado de código basado en ML que funciona sin conexión y está entrenado con código local, pero están muy por debajo de la capacidad de Copilot). Aquí es donde algunas organizaciones esperan que Microsoft/GitHub eventualmente ofrezcan un dispositivo Copilot autoalojado o un modelo que pueda ejecutarse en Azure Stack (una versión local de Azure). Hasta ahora, no existe una hoja de ruta pública de este tipo – se asume que el ritmo de mejora de los modelos y la integración con la plataforma en la nube de GitHub hacen que un producto local sea complicado.
Sin embargo, la demanda claramente existe – especialmente a medida que los asistentes de programación con IA se vuelven estándar. Microsoft podría, en cambio, seguir ofreciendo garantías a las empresas mediante políticas: por ejemplo, quizás futuras actualizaciones permitan ejecutar GitHub Copilot completamente a través de Azure OpenAI dentro de tu tenant (de modo que incluso la inferencia se realice en una instancia de Azure bajo el control del cliente). Eso tranquilizaría a algunas organizaciones, al considerar que es “su nube” en lugar del servicio multicliente de GitHub. Tendremos que estar atentos a cómo evoluciona este panorama. Por ahora, si el uso sin conexión de un modelo LLM de programación es un requisito, habrá que mirar fuera de Copilot oficial, hacia soluciones de código abierto o de terceros, y estar preparados para una posible caída de calidad frente al modelo de última generación que utiliza GitHub Copilot.
Windows Copilot – Hacia un Modelo de IA Híbrido (Local + Nube)
Windows Copilot (presentado en Windows 11) es único porque forma parte del propio sistema operativo, con el objetivo de asistir tanto en consultas web o cognitivas como en tareas específicas del PC (como ajustar configuraciones o resumir lo que aparece en pantalla). Inicialmente, la inteligencia de Windows Copilot era, en esencia, Bing Chat – es decir, estaba impulsado por la nube (OpenAI GPT-4 a través de Bing) para prácticamente todo. Pero muy pronto, Microsoft dio señales de un cambio hacia un enfoque más híbrido, aprovechando el hardware local. Esto refleja una visión más amplia: llevar las capacidades de IA directamente a los PCs para que no todo dependa del servidor.
En junio de 2024, Microsoft (junto con socios de hardware) anunció los “Copilot+ PCs”: una nueva generación de PCs con Windows 11 equipadas con potentes NPUs (unidades de procesamiento neuronal) y un runtime especial de Windows Copilot. Estas máquinas (como los dispositivos Surface con procesadores Qualcomm Snapdragon, y los próximos modelos Intel Core Ultra con NPU) están diseñadas para ejecutar múltiples modelos de IA localmente, en el propio dispositivo. Microsoft reveló que los PCs certificados como Copilot+ incluyen el runtime de Windows Copilot, con más de 40 modelos de IA ejecutándose completamente en los portátiles. Esto representa un cambio radical respecto al modelo exclusivamente basado en la nube. En esencia, Windows ahora incorpora un conjunto de modelos de IA precargados (para visión, lenguaje, audio, etc.) que pueden ejecutarse en la NPU u otros aceleradores locales, permitiendo que muchas funciones de Copilot funcionen sin conexión o con mejor rendimiento.
¿Qué tipo de cosas pueden hacer estos modelos locales? Según Microsoft y medios especializados, la IA local en los PCs Copilot+ permite funciones como:
“Recall” (Búsqueda semántica personal)
Esta es una función que indexa todo lo que has visto o hecho en tu PC (archivos, ventanas, aplicaciones, capturas de pantalla en una línea de tiempo) y te permite realizar búsquedas semánticas sobre ello. Recall utiliza un índice semántico personal construido y almacenado completamente en tu dispositivo, con instantáneas guardadas localmente. En otras palabras, es como tener un modelo de “memoria” local que puede responder preguntas sobre lo que hiciste, sin necesidad de consultar la nube. Funciona sin conexión y mantiene los datos privados en el PC.
Generación y edición de imágenes (Cocreator, Paint, Fotos)
Windows ahora integra un generador de imágenes con IA (similar a DALL-E o Stable Diffusion). En los PCs Copilot+, esto se ejecuta en la NPU local. Microsoft señaló que, mientras que los generadores de imágenes en la nube suelen tener límites o tiempos de espera, la generación de imágenes basada en NPU puede ser “prácticamente en tiempo real” en el dispositivo. Puedes escribir una indicación y obtener una imagen generada por el modelo local, o aplicar efectos de IA a tus fotos (como cambiar el estilo de una imagen) con “Restyle” en la aplicación Fotos – todo sin contactar con un servicio en la nube. Incluso afirman que en los PCs Copilot+ puedes generar imágenes infinitas, gratis y rápidamente, ya que todo ocurre localmente.
Transcripción y traducción de audio en tiempo real
Funciones como subtítulos en vivo o traducción de palabras habladas pueden ejecutarse con modelos de IA locales (por ejemplo, un pequeño modelo de reconocimiento de voz y otro de traducción en la NPU). Esto elimina nuevamente la necesidad de APIs en la nube y mantiene los datos de audio en el dispositivo.
Reconocimiento de visión y contexto
Microsoft demostró que Copilot (en estos nuevos PCs) puede “ver” lo que hay en tu pantalla o en las aplicaciones abiertas y ayudarte con ello. Esto probablemente implica modelos de visión local (para reconocimiento de elementos de la interfaz, etc.) que se ejecutan en el PC. Por ejemplo, Copilot podría identificar una captura de pantalla o imagen y ofrecer contexto, lo cual podría realizarse localmente antes de cualquier consulta a la nube.
Lo más importante es que Microsoft destacó el enfoque de privacidad de estas capacidades locales: “Todo funciona sin conexión y en tu PC de una manera que protege mejor la privacidad — sin enviar tus datos personales a un servidor en la nube para su procesamiento.”. Esta cita de una reseña de PCMag sobre los Copilot+ PCs subraya que tareas como buscar en tu PC o generar imágenes se realizan completamente sin conexión en el dispositivo, lo que significa que incluso si no tienes internet, esas funciones de Copilot seguirán funcionando y ninguno de tus datos (como el contenido de tus archivos o imágenes) sale del equipo.
Sin embargo, no todas las consultas a Copilot se manejarán sin conexión en estos PCs…
Microsoft aclaró que “algunas tareas seguirán utilizando modelos de IA que se ejecutan en centros de datos lejanos”, presumiblemente aquellas relacionadas con chat de propósito general o razonamientos complejos que proporciona GPT-4. Por ejemplo, si le pides a Copilot que redacte un correo largo o escriba código que no puede resolverse localmente, el PC aún puede recurrir a la nube para aprovechar toda la potencia del modelo grande. Los modelos locales (que podrían tener entre 1.5 y 7 mil millones de parámetros, como insinúan los modelos “DeepSeek” que Microsoft está implementando) son excelentes para tareas contextuales rápidas, pero para lenguaje natural abierto, el modelo en la nube probablemente seguirá siendo superior.
Este modelo híbrido en realidad es muy atractivo: tu PC maneja lo que puede (rápido, privado, con capacidad sin conexión), y solo recurre a la nube para lo realmente exigente. Es similar a cómo los teléfonos inteligentes ejecutan parte de la IA en el dispositivo (como el dictado por voz o reconocimiento básico de imágenes) y usan la IA en la nube para consultas más complejas.
Desde la perspectiva empresarial, la llegada de los Copilot+ PCs significa que los usuarios en campo pronto podrían tener funcionalidades parciales de Copilot incluso sin conexión. Imagina a un técnico en un yacimiento petrolero con un dispositivo Copilot+ resistente: podría usar Recall para consultar los datos de los últimos 2 días, generar imágenes para visualizar un concepto o transcribir en tiempo real una reunión, todo sin conexión. Cuando se reconecte, cualquier consulta compleja pendiente puede ser resuelta por la IA en la nube. Esto podría aumentar considerablemente la utilidad de Copilot en situaciones con conectividad limitada.
Microsoft también está desarrollando herramientas para que los desarrolladores aprovechen este runtime de IA local. En el blog para desarrolladores de Windows se anunció que ahora los desarrolladores pueden apuntar al runtime de Windows Copilot y a las NPUs para incluir funciones de IA en sus propias aplicaciones. Esto significa que aplicaciones empresariales, ya sean de terceros o internas, podrían desplegar modelos de IA personalizados que se ejecuten localmente en los PCs de los usuarios. Por ejemplo, una empresa podría empaquetar un modelo de IA específico para verificación de cumplimiento o un analizador de datos especializado que se ejecute en todos los portátiles de los empleados a través del runtime de Copilot – sin necesidad de la nube para esa función específica.
La visión general...
La evolución de Windows Copilot demuestra la estrategia de Microsoft para combinar la IA en la nube con la IA en el borde. El equipo de Windows lo expresó literalmente: “La IA se está acercando al borde, y los PCs Copilot+ están liderando el camino.”. Al optimizar e incluso reducir los modelos para que se ejecuten en NPUs, Microsoft está sentando las bases para experiencias con Copilot que se degraden de forma elegante cuando no hay conexión, en lugar de simplemente dejar de funcionar. Hoy en día, esto es más evidente en hardware especializado, pero con el tiempo estas NPUs serán comunes en la mayoría de los PCs empresariales. Podemos esperar que la línea entre lo que se hace localmente y lo que va a la nube se desplace a medida que el hardware local sea más compatible con la IA. Tal vez dentro de uno o dos años, incluso un PC estándar podrá ejecutar un modelo de tamaño decente localmente, lo que significaría que Microsoft 365 Copilot podría responder a solicitudes simples de forma local y solo recurrir a Azure para solicitudes complejas o acceso a datos a nivel corporativo. Este enfoque por niveles podría aliviar muchas preocupaciones sobre la necesidad de estar siempre conectados a internet.
En resumen, Windows Copilot en su forma más reciente es el primer Copilot que ofrece capacidades verdaderas sin conexión (para ciertas funciones). Representa el reconocimiento por parte de Microsoft de que depender de la nube para todo no es lo ideal. Las empresas deberían estar atentas a este tema, ya que técnicas comprobadas en Windows (índices semánticos locales, modelos reducidos como “DeepSeek” para búsqueda, etc.) podrían aplicarse más adelante en las aplicaciones de Office o en productos de servidor. Es un desarrollo prometedor para quienes necesitan IA en escenarios desconectados: podrías equipar a tus usuarios con dispositivos que sigan brindando asistencia de IA independientemente de la conectividad.


Ejecutar Tu Propio Copilot: Implementaciones Locales de LLM y Opciones Empresariales
Si una organización no puede usar las versiones en la nube de Copilot, una alternativa es intentar implementar modelos de lenguaje de gran escala (LLM) en local o en un entorno privado para replicar parte de la funcionalidad de Copilot. Esto es, en esencia, un enfoque tipo “hazlo tú mismo” para tener un “asistente de IA” sin depender de la nube de Microsoft. ¿Cuáles son las posibilidades y limitaciones en este escenario?
Azure OpenAI en una red privada
Ya lo mencionamos antes: aunque el servicio Azure OpenAI es en la nube, puedes aislarlo usando Private Link/Endpoints, de forma que desde la perspectiva empresarial se comporte como un servicio interno. Microsoft permite bloquear una instancia de Azure OpenAI para que solo esté disponible dentro de una red virtual específica e incluso restringir completamente el acceso desde internet pública. Los clientes (tus aplicaciones o servicios) se conectan entonces mediante esa red privada. El flujo de datos ocurre completamente dentro de la red segura de Azure o a través de tu conexión ExpressRoute. Esto reduce el riesgo de exposición a internet y garantiza que ningún otro tenant pueda acceder a tu instancia. Muchas empresas usan este modelo para cargas de trabajo sensibles: el LLM está “en Azure”, pero esencialmente solo tu organización puede comunicarse con él, y todo el tráfico está cifrado y permanece dentro de regiones específicas. No es una solución sin conexión, pero puede sentirse como una extensión privada de tu infraestructura.
Además, Azure OpenAI ha introducido recientemente “Azure OpenAI on Your Data”, que te permite indexar tus datos internos (por ejemplo, archivos, base de conocimientos) y hacer que el modelo base sus respuestas en esa información, todo dentro de tu entorno. Es similar a construir un chatbot que conoce los documentos de tu empresa. De nuevo, no es una solución sin conexión, pero podrías alojar todos los componentes en Azure o en conexiones locales, de modo que el sistema no dependa de internet pública ni de servicios multiusuario. Si se requiere un entorno completamente desconectado temporalmente, podrías almacenar en caché parte de los datos o ejecutar consultas por adelantado, aunque en general Azure OpenAI sigue necesitando esa conexión activa.
Contenedores de Azure AI para el Borde
Microsoft también ha comenzado a ofrecer Azure AI en contenedores para uso sin conexión (en vista previa, para ciertos servicios cognitivos). Un Especialista Técnico de Microsoft destacó que “los contenedores sin conexión de Azure AI son fundamentales para implementar soluciones de IA en entornos con conectividad limitada o inexistente”, empaquetando modelos para ejecutarse localmente en dispositivos de borde o servidores on-premise. Actualmente, esto incluye servicios como reconocimiento de voz (speech-to-text), traducción de idiomas y otros servicios cognitivos que pueden contenerizarse. El beneficio es claro: no hay dependencia de la nube – el contenedor incluye el modelo y el runtime necesarios, por lo que puedes desplegarlo, por ejemplo, en un laboratorio desconectado. Sin embargo, Azure OpenAI (modelos GPT) no estaban disponibles en esta modalidad de forma general en los primeros meses de 2024. El programa de contenedores sin conexión está limitado a clientes estratégicos y casos de uso específicos. Esto sugiere que Microsoft está trabajando para ofrecer más servicios de IA en formato totalmente sin conexión para quienes realmente lo necesiten (por ejemplo, clientes gubernamentales del sector defensa). Es plausible que en el futuro se ofrezca una versión en contenedor de un modelo similar a GPT-4 para ciertos clientes grandes que cuenten con el hardware necesario. Esto permitiría, en esencia, que una empresa ejecute un “cerebro de Copilot” en local, completamente sin conexión, aunque probablemente con un alto coste (requiriendo racks de GPUs o NPUs especializadas).
Los beneficios clave de los contenedores de IA sin conexión incluyen continuidad operativa, privacidad de los datos, baja latencia, etc.; exactamente las razones que ya hemos mencionado por las que las empresas desean un Copilot sin conexión. Microsoft es consciente de estas necesidades y las está abordando en otros dominios de IA. Por ahora, los LLM siguen siendo un reto debido a su tamaño, pero es cuestión de tiempo y optimización.
LLMs de código abierto en local
Si las soluciones oficiales de Microsoft aún no están disponibles, algunas organizaciones están experimentando con modelos de lenguaje de gran escala de código abierto que pueden ejecutarse en local o incluso en máquinas individuales. En los últimos años ha proliferado el uso de modelos como LLaMA 2 de Meta, que en sus versiones de 7B o 13B parámetros pueden ejecutarse en un único servidor de alto rendimiento (o incluso en un portátil potente con GPU), y en su versión de 65B pueden ejecutarse en un servidor con múltiples GPUs. Estos modelos pueden ajustarse con datos propios de la empresa y servir como un Copilot básico para uso interno. Para asistencia en programación, modelos como StarCoder o Code Llama se han utilizado para construir funcionalidades similares a Copilot sin depender de servicios en la nube. Existen proyectos de código abierto que integran estos modelos en VS Code, por ejemplo, permitiendo autocompletado de código sin conexión (aunque con menor precisión que las sugerencias basadas en GPT-4 de GitHub Copilot).
El compromiso con los modelos abiertos está en la calidad y el mantenimiento. A menudo se quedan por detrás del estado del arte en coherencia y precisión. Dicho esto, la brecha se está cerrando: un modelo ajustado de 70 mil millones de parámetros puede rendir sorprendentemente bien en muchas tareas, aunque aún puede tener dificultades con razonamientos complejos o amplitud de conocimiento, donde GPT-4 sobresale. Además, ejecutar estos modelos requiere asignar recursos de TI (GPUs, almacenamiento, etc.) y conocimientos en aprendizaje automático para configurarlos y actualizarlos constantemente. Se convierte en un proyecto interno para “poseer” la IA. Para algunas grandes empresas y agencias gubernamentales, esto es aceptable (incluso preferible). Para otras, representa una barrera demasiado alta, y prefieren esperar a que Microsoft u otro proveedor ofrezca una solución local gestionada.
Implementaciones híbridas con conectividad periódica
Otro enfoque es operar en un modo “conectado ocasionalmente”. Tal vez tu entorno esté desconectado la mayor parte del tiempo pero pueda conectarse en ventanas programadas (por ejemplo, sincronizaciones diarias o semanales). En tales casos, se podría usar Copilot por lotes: por ejemplo, cuando haya conexión, hacer que Copilot genere una serie de contenidos o análisis que sabes que necesitarás, y luego utilizar esos resultados sin conexión hasta la siguiente sincronización. No es un uso en tiempo real de Copilot, pero aprovecha la nube cuando está disponible para beneficiar los períodos sin conexión. Un ejemplo: un equipo en un submarino sale a la superficie y se conecta una vez por semana; durante ese tiempo, podrían alimentar a Copilot con todos los informes y datos recopilados y pedirle que produzca análisis, que luego utilizarán mientras están sumergidos sin conexión. Esto requiere planificación y no es tan fluido como tenerlo bajo demanda, pero es una solución creativa para ciertos flujos de trabajo.
Resumen de las posibilidades locales
Ejecutar tu propio “Copilot” local es factible hoy para propósitos específicos y limitados (con modelos de código abierto), pero para experimentar Copilot en su forma completa, con inteligencia a nivel de GPT-4 en múltiples dominios, todavía estamos en gran medida atados a la nube. Microsoft avanza en la dirección correcta con opciones de redes privadas y runtimes para el borde. En sesiones de preguntas y respuestas, Microsoft ha sugerido que “podría lanzar una versión local en el futuro” para Azure OpenAI, aunque sin fecha definida. Alientan a los clientes que lo necesitan a manifestarlo a través de los canales de retroalimentación, por lo que es un tema que tienen en el radar. Dado el rápido avance de la tecnología, no es descabellado pensar que en uno o dos años, Microsoft podría ofrecer un modelo de IA más reducido pero desplegable localmente para ciertas funciones de Copilot – especialmente a medida que las NPUs y el hardware especializado se generalicen (lo que haría viable económicamente distribuir modelos para ejecutarse en las máquinas de los clientes en lugar de solo en los centros de datos de Microsoft).
Por ahora, las empresas que deben evitar la nube tienen estas opciones: usar el enfoque de nube privada de Azure (manteniéndolo dentro de su tenant sin exposición pública), o invertir en implementaciones alternativas de IA (soluciones locales de código abierto o de terceros), entendiendo sus limitaciones. Muchas están adoptando un enfoque de esperar y observar: ponen Copilot en pausa por el momento, pero monitorean las actualizaciones de Microsoft que se acerquen a sus requisitos. Y aquellas que pueden tolerar algo de nube están empezando poco a poco, activando Copilot para usuarios menos sensibles o en entornos de prueba, para evaluar sus beneficios.
Estrategias para Entornos con Conectividad Limitada: Obtener Valor de Copilot
Aunque actualmente el uso completamente sin conexión de Copilot es limitado, existen estrategias para maximizar sus beneficios en entornos con poca conectividad o con altos requisitos de seguridad:
1. Usar Copilot en una Zona de Red Controlada
Si el uso directo de internet está prohibido, considera establecer una zona o terminal controlada que tenga acceso a Copilot. Por ejemplo, algunas organizaciones cuentan con una “estación de investigación” que puede conectarse al exterior (a través de canales monitoreados) mientras que las PC normales no pueden. Un analista podría usar Copilot en esa estación para obtener asistencia de IA sin exponer toda la red. No es un entorno sin conexión, pero permite compartimentar el riesgo. Es como tener una sala segura donde Copilot puede ejecutarse, y se introduce o extrae información de manera controlada (asegurándose, por ejemplo, de no introducir datos realmente sensibles, o usando datos ficticios). Esto puede combinarse con Bing Chat Enterprise, otra oferta de IA de Microsoft: es esencialmente el chat con GPT-4 de Bing pero con garantías de que tus indicaciones no se almacenan ni se utilizan para entrenar la IA y los datos permanecen dentro del entorno de tu organización. Bing Chat Enterprise podría ser utilizado por departamentos legales o de RRHH para consultas generales con contexto sensible, ya que Microsoft no registra esos datos más allá de generar la respuesta. Sigue siendo nube, pero con una privacidad reforzada.
2. Usar Enlaces Privados y VPNs
Como se mencionó anteriormente, configura una conectividad privada hacia la nube de Microsoft para los servicios de Copilot. Usando Azure ExpressRoute o túneles VPN, puedes garantizar que todo el tráfico de Copilot pase por tu red segura directamente hacia Microsoft, sin pasar por internet abierta. Esto resuelve preocupaciones sobre posibles interceptaciones o exposiciones. Efectivamente convierte el servicio de Microsoft 365 o Azure en una extensión de tu intranet. Junto con el cifrado de datos (activo por defecto) y los acuerdos empresariales de Microsoft, esto suele cumplir con los requisitos normativos. Es una implementación técnica que no cambia la naturaleza en la nube de Copilot, pero la hace más aceptable en distintos escenarios.
3. Integrar Datos Locales mediante Graph Connectors
Lo mencionamos para M365 Copilot: si tus usuarios necesitan principalmente que Copilot funcione con documentos internos o conocimiento que actualmente reside en local, planifica canalizar esos datos de forma segura hacia Microsoft 365. Se pueden configurar conectores de Graph para archivos compartidos, bases de datos locales, wikis, etc., de forma que Copilot pueda responder preguntas usando esa información. Así, incluso si la fuente de verdad está en local, la IA no necesita acceder dinámicamente a tu red (algo que no puede hacer); en cambio, la información relevante ya ha sido indexada en la nube. Es una forma de mantener en caché el conocimiento empresarial en la nube. Deberás ocuparte del recorte de seguridad (asegurarte de que Copilot solo muestre información a quien corresponda) – Microsoft Search/Graph lo gestiona si está bien configurado. El beneficio es que los usuarios obtienen respuestas enriquecidas de Copilot que incluyen contenido de tus archivos locales privados – algo que de otro modo se perderían. El coste es la configuración inicial y un proceso de sincronización continua.
4. Formación y Entornos Controlados para Datos Sensibles
Una parte fundamental del despliegue de Copilot en cualquier entorno es la formación de los usuarios sobre qué se debe y qué no se debe compartir con la IA. Incluso si no planeas usarlo sin conexión, por motivos de cumplimiento puedes instruir a los usuarios, por ejemplo: “No pegues contenido Secreto o Clasificado en las indicaciones de Copilot” hasta que haya un modelo completamente privado disponible. Algunas organizaciones ya tienen políticas internas para el uso de IA generativa. Guiando a los usuarios, se reduce el riesgo de que envíen accidentalmente algo sensible a una IA en la nube. En proyectos extremadamente sensibles, los usuarios podrían operar sin Copilot para esas tareas (al estilo tradicional) pero utilizarlo para tareas menos críticas. Con el tiempo, a medida que se genera confianza o surgen más opciones sin conexión, estas directrices pueden ajustarse.
5. Supervisar e Iterar
Activa todos los registros o auditorías disponibles. Para Microsoft 365 Copilot, puedes usar las herramientas de Microsoft Purview para ver el uso de Copilot y asegurarte de que no esté exponiendo datos de forma incorrecta. En GitHub Copilot for Business, puedes obtener telemetría sobre las sugerencias. Supervisar ayuda a generar confianza en que Copilot puede usarse de forma segura incluso estando en la nube — y los datos recopilados pueden indicar dónde realmente se necesita una solución sin conexión frente a donde la versión en la nube es suficiente. Podrías descubrir, por ejemplo, que Copilot nunca intenta utilizar cierto tipo de datos sensibles, o que ciertos equipos lo usan intensamente mientras otros (quizás en segmentos seguros) no — eso puede ayudarte a enfocar esfuerzos en encontrar alternativas específicas para esos equipos.
6. Evaluar el Hardware Copilot+ para Uso en Campo
Si tienes empleados que trabajan con frecuencia sin conexión (consultores que viajan a sitios de clientes con Wi-Fi deficiente, técnicos en zonas remotas), considera equiparlos con los nuevos PCs Copilot+ o dispositivos con NPU a medida que estén disponibles. Las funciones de IA local en estos dispositivos podrían mejorar significativamente la productividad en el campo. Por ejemplo, un consultor en un vuelo (sin internet) aún podría usar las capacidades offline de Copilot para organizar notas (con Recall), generar imágenes para un informe o transcribir una reunión previa — tareas que antes requerían IA en la nube. Cuando se reconecte, podrá sincronizar y usar el Copilot completo para tareas más complejas. Microsoft y los fabricantes probablemente promocionen intensamente estos PCs con IA para empresas en 2025; los líderes de TI deberían probarlos y ver si ofrecen beneficios tangibles de IA offline que justifiquen una renovación. Es, esencialmente, llevar parte de la inteligencia en la nube directamente al dispositivo — una decisión inteligente para ciertos perfiles.
7. Planificar para Despliegues Híbridos Futuros
Al planificar tus inversiones en TI y nube, mantente atento a la hoja de ruta de Copilot de Microsoft. La tendencia es hacia la flexibilidad: quizás Azure Stack (Azure en local) aloje algún día modelos de IA que Copilot pueda usar, o exista un “dispositivo Copilot” para grandes empresas. Microsoft también está habilitando Copilot Studio, donde las organizaciones pueden construir sus propios mini copilotos (con complementos y prompts personalizados) — actualmente dentro del ecosistema en la nube, pero se puede imaginar que en el futuro se desplieguen en nubes privadas. Lo importante es que tu arquitectura (identidad, red, hardware) esté lista para integrar estas soluciones de IA híbridas. Por ejemplo, invertir en dispositivos con NPU, asegurar que tu entorno de Azure tenga enlaces privados configurados, o capacitar a tu equipo en el manejo de modelos de IA — todo esto te puede posicionar para aprovechar funcionalidades offline o semi-offline de Copilot tan pronto estén disponibles.
La Hoja de Ruta de Microsoft: ¿Hacia un Copilot Opcionalmente Sin Nube?
El mensaje de Microsoft sobre Copilot ha sido “IA en todas partes”, y cada vez más, ese “en todas partes” incluye el borde, los dispositivos y todos los entornos de nube. Ya vemos pasos concretos: Windows aprovechando IA local, Microsoft 365 Copilot expandiéndose a nubes gubernamentales, Azure ofreciendo endpoints de modelos privados, y menciones de posibilidades on-prem en el futuro.
Vale la pena recordar la visión de Satya Nadella — él habla a menudo de la computación distribuida y de cómo la IA será parte de todas las plataformas que usamos. Parte de esa distribución probablemente sea la “IA en el borde”, es decir, que la IA no viva solo en grandes centros de datos sino también en tu teléfono, tu portátil, tu servidor local. Las inversiones de Microsoft en NPUs (por ejemplo, Surface Pro con procesadores SQ, asociaciones con Qualcomm e Intel en chips de IA) demuestran que están apostando por que las cargas de IA ocurran en dispositivos locales. La asociación con Meta para llevar LLaMA 2 a Azure y el soporte a modelos abiertos también podrían jugar un rol: Microsoft podría incorporar modelos abiertos más pequeños para ciertas funciones de Copilot que puedan ejecutarse localmente o incluso permitir que los clientes conecten su propio modelo en algunos casos.
Debemos moderar las expectativas...
Las mejores capacidades de Copilot aún dependen de modelos muy grandes que son poco prácticos de ejecutar totalmente en local para la mayoría de los clientes en 2025. Eso probablemente no cambiará de inmediato. Lo que sí cambiará es la combinación entre procesamiento en la nube y procesamiento local, y las opciones sobre dónde ocurre ese procesamiento (nube pública vs. nube privada). Microsoft 365 Copilot seguirá utilizando algo como GPT-4 alojado en Azure — pero quizás puedas elegir alojar la instancia en el centro de datos de tu país, o en un servidor aislado dedicado para tu empresa. GitHub Copilot podría seguir siendo un servicio en la nube multiusuario por un tiempo, pero tal vez Azure DevOps introduzca una IA similar que puedas alojar. Ya existe una analogía entre Azure DevOps Services y Azure DevOps Server — tal vez llegue un “complemento de IA” para DevOps Server, entrenado con tu código, ejecutado en tus propios servidores. Esto es especulativo, pero se alinea con cómo suele evolucionar el software empresarial (primero en la nube, luego con opciones locales una vez madura).
La propia respuesta de Microsoft en su sección de preguntas frecuentes sobre IA local (Azure OpenAI) es reveladora: “seguimos trabajando constantemente en mejoras… podría lanzarse una versión on-prem en el futuro.” Microsoft es plenamente consciente de que sus competidores podrían atender la demanda de soluciones locales. Empresas como IBM, por ejemplo, promocionan sus soluciones de IA que pueden ejecutarse en tu centro de datos. CodeWhisperer de Amazon (un servicio de AWS similar a Copilot) tampoco tiene una versión local, pero AWS podría ofrecer modelos en AWS Outposts (hardware local). Microsoft no querrá perder grandes clientes que insisten en soluciones sin nube, por lo que crecerá la presión para ofrecer algo en esa línea.
En conclusión, la dirección está clara: Microsoft está reduciendo gradualmente la dependencia de Copilot de su propia nube, permitiendo que tu nube o tus dispositivos asuman una mayor parte del trabajo. Hemos pasado de “Copilot = solo en la nube” a principios de 2023 a “Copilot puede usar 40 modelos locales en un PC” a finales de 2024. No es descabellado pensar que a finales de 2025 escuchemos sobre un Copilot para Azure Stack (hipotéticamente) o una expansión de los contenedores offline para incluir ciertos modelos de lenguaje. Las empresas deberían comunicarse con Microsoft a través de sus equipos de cuenta para expresar interés en estas capacidades – a menudo, las funciones (como la vista previa de contenedores sin conexión) se ofrecen primero a clientes estratégicos que más lo necesitan. Si tu organización está en ese grupo (infraestructura crítica, defensa, etc.), podría haber programas tempranos para llevar IA tipo Copilot a tu entorno antes que al resto.
Conclusión: Prepararse para un Futuro de IA Híbrida
Hoy en día, Microsoft Copilot – ya sea en Office, GitHub o Windows – todavía depende en gran medida de la IA basada en la nube, lo que significa que se necesita conexión a internet y confianza en la seguridad de la nube. El uso completamente sin conexión de Copilot no está disponible de forma general en este momento, con la excepción de capacidades emergentes en dispositivos especializados con Windows.
Sin embargo, Microsoft está trabajando activamente para cerrar la brecha entre la nube y lo local. A través de despliegues en nube privada, runtimes locales en dispositivos y posibles ofertas on-prem en el futuro, la dependencia de la nube se está reduciendo gradualmente. Mientras tanto, las empresas pueden adoptar un enfoque híbrido: mantener los flujos de trabajo menos sensibles en la nube para aprovechar todo el potencial de Copilot, mientras se emplean soluciones alternativas o herramientas complementarias para usuarios sin conexión o en zonas seguras. Incluso el uso parcial de Copilot puede ofrecer importantes beneficios en productividad – por ejemplo, empleados de oficina podrían automatizar tareas documentales (en la nube), mientras que ingenieros de campo usan una IA local simplificada para transcripciones (en el borde).
También es importante evaluar el valor empresarial que ofrece Copilot frente a los desafíos de depender de la nube. Muchas organizaciones han comprobado que el aumento de productividad con Copilot – redactar contenido en segundos, acelerar la programación, extraer insights de datos – es significativo. Esto genera un impulso interno para encontrar la forma de adoptar Copilot de forma segura en lugar de rechazarlo directamente. Los líderes de TI están en una posición donde deben equilibrar innovación y riesgo. La buena noticia es que los compromisos empresariales de Microsoft (privacidad, cumplimiento, herramientas) han dado suficiente confianza a muchos CIOs como para al menos probar Copilot en un entorno controlado. A medida que estas pruebas demuestran su valor, pueden ampliar los límites, posiblemente hacia una adopción más amplia o exigiendo más capacidades offline a Microsoft.
Al planificar la implementación de Copilot en tu organización, considera:
- Casos de uso: Identifica qué tareas podría revolucionar Copilot (por ejemplo, generación de informes, revisión de código, preguntas y respuestas sobre la base de conocimientos) y cuáles requieren conectividad.
- Conectividad: Mejora las rutas de red hacia la nube de Microsoft (ancho de banda, baja latencia, enlaces privados) para que el uso de Copilot sea fluido y seguro. Una conexión rápida y confiable puede reducir la frustración del usuario y los riesgos de seguridad.
- Políticas: Desarrolla pautas claras sobre el uso de la IA. Esto no solo evita malentendidos, sino que demuestra a los empleados que la organización adopta la IA de forma responsable, no imprudente. Fomenta la confianza entre TI, cumplimiento y usuarios.
- Formación: Tan importante como la configuración técnica es capacitar al personal sobre cómo usar Copilot de forma eficaz, y qué hacer si no está disponible (por ejemplo, “Si estás sin conexión, esto es lo que Copilot puede o no puede hacer…”).
- Medición de ROI: Realiza un seguimiento del tiempo ahorrado o de las mejoras de calidad gracias a Copilot. Esto ayudará a justificar futuras inversiones, como la adquisición de dispositivos Copilot+ o iniciativas de IA en local.
El panorama de la IA empresarial está evolucionando rápidamente. Microsoft Copilot, a abril de 2025, está a la vanguardia de la integración de IA generativa en el trabajo diario. Aunque comenzó firmemente anclado en la nube, está claro que la visión de Copilot de Microsoft no se limita a escenarios siempre conectados. Vamos hacia un mundo donde los copilotos de IA serán omnipresentes – disponibles en tu escritorio, en tu portátil en una montaña, o en un búnker sin conexión, trabajando contigo. Alcanzar esa ubicuidad de forma responsable es el próximo gran reto. El enfoque híbrido de Microsoft indica que reconocen que una única solución (la nube) no sirve para todos.
Por ahora, la mayoría de las organizaciones experimentarán Copilot como un servicio en la nube, pero deberían empezar a sentar las bases (a nivel técnico y de políticas) para despliegues más flexibles. Esos esfuerzos darán frutos a medida que Microsoft lance más capacidades compatibles con el trabajo sin conexión. Al mantenerse informados sobre las últimas actualizaciones de Copilot y al involucrarse con la hoja de ruta de Microsoft, los profesionales de TI podrán garantizar que su organización esté lista para ofrecer los beneficios de Copilot a sus usuarios – en la nube, en el borde o en cualquier punto intermedio.




